FAIRWASHING是指通过HOC解释操纵来解释不公平的黑匣子模型的风险。在本文中,我们通过分析其忠诚 - 不公平权衡来调查私人洗脱袭击的能力。特别是,我们表明,巧巧式化的解释模型可以概括起诉组(即,正在解释的数据点),这意味着巧式化的解释者可用于合理化黑匣子模型的后续不公平决策。我们还表明,私人洗涤攻击可以跨黑盒式机型转移,这意味着其他黑匣子型号可以在不明确使用他们的预测的情况下进行私人洗手。这种泛化和私伤攻击的可转移性意味着他们的检测在实践中难以实现。最后,我们提出了一种方法来量化私人洗礼的风险,这是基于高保真解释者的不公平性范围的计算。
translated by 谷歌翻译
众所周知,大数据挖掘是数据科学的重要任务,因为它可以提供有用的观察结果和隐藏在给定的大数据集中的新知识。基于接近性的数据分析尤其在许多现实生活中使用。在这样的分析中,通常采用了与K最近的邻居的距离,因此其主瓶颈来自数据检索。为提高这些分析的效率做出了许多努力。但是,他们仍然会产生巨大的成本,因为它们基本上需要许多数据访问。为了避免此问题,我们提出了一种机器学习技术,该技术可以快速准确地估算给定查询的K-NN距离(即与K最近的邻居的距离)。我们训练完全连接的神经网络模型,并利用枢轴来实现准确的估计。我们的模型旨在具有有用的优势:它一次不距离K-NN,其推理时间为O(1)(未产生数据访问),但保持高精度。我们对实际数据集的实验结果和案例研究证明了解决方案的效率和有效性。
translated by 谷歌翻译